هوش مصنوعی در حال تبدیل شدن به عنصر جدایی‌ناپذیر زندگی انسان‌ها است وهر روز بیش از گذشته در تصمیم‌گیری‌های کلان و حتی میدان‌های جنگ نقش‌آفرین می‌شود. درهمین راستا، کارشناسان نگران پیامدهای اخلاقی این فناوری هستند؛ جایی که حذف قضاوت انسانی از چرخه تصمیم‌گیری می‌تواند مرزهای حقوق بشردوستانه را با چالش‌های جدی مواجه کند.
به گزارش اطلاعات، دبیرکل کمیسیون ملی یونسکو-ایران، صبح دیروز در نشست علمی «پیامدهای اخلاقی هوش مصنوعی: ملاحظات اخلاقی در توسعه مسئولانه نظام‌های هوش مصنوعی» که در تالار ملل دانشکده مطالعات جهان دانشگاه تهران برگزار شد، اظهار کرد: امروزه در جهانی زندگی می‌کنیم که فناوری‌های نوظهور، به‌ویژه هوش مصنوعی، زندگی ما را دگرگون کرده‌اند. تحولات شتابان فناوری در حوزه هوش مصنوعی، توجه نهادهای ملی و بین‌المللی را به پیامدهای اخلاقی این فناوری معطوف کرده است. هوش مصنوعی در سال‌های اخیر به عنصری اثرگذار در فرآیندهای تصمیم‌گیری، تولید دانش و سیاستگذاری عمومی تبدیل شده است؛ امری که ضرورت توجه نظام‌مند به ملاحظات اخلاقی آن را برجسته می‌سازد.
حسن فرطوسی ادامه داد: یونسکو به‌عنوان نهاد پیشرو در تدوین اسناد بین‌المللی اخلاق هوش مصنوعی، نقش مهمی در هدایت گفتگوهای جهانی پیرامون توسعه مسئولانه این فناوری ایفا کرده و بر اصولی چون عدالت، شفافیت، مسئولیت‌پذیری، احترام به کرامت انسانی و شمول اجتماعی تأکید دارد. تحقق عملی این اصول، مستلزم انطباق آن‌ها با شرایط و اولویت‌های ملی است. جمع‌بندی کلی این نگاه در یونسکو در سال ۲۰۲۱ در قالب «توصیه‌نامه اخلاق در هوش مصنوعی» منتشر شد. یونسکو ذیل این سند تلاش کرده است توصیه‌نامه اخلاقی جامعی تدوین کند که بر حفظ کرامت و حقوق انسان‌ها و دفاع از آزادی‌های اساسی استوار است.
وی افزود: هوش مصنوعی فرصت‌های بی‌نظیری برای افراد و نهادها فراهم کرده است اما هم‌زمان، چالش‌هایی جدی در این حوزه وجود دارد؛ چالش‌هایی مانند حفظ حریم خصوصی و تأمین امنیت داده‌ها، موضوع اخلاق در بهره‌گیری از هوش مصنوعی و تضمین دسترسی برابر به فناوری برای همه. یونسکو هشدار می‌دهد که اگر این چالش‌ها مدیریت نشوند، فناوری به جای کاهش مسائل و معضلات باعث تشدید آن خواهد شد.
استفاده از هوش مصنوعی در جنگ
در ادامه، استاد گروه ارتباطات و مطالعات جهان دانشگاه تهران طی سخنانی با اشاره به الزامات اخلاقی هوش مصنوعی در منازعات مسلحانه گفت: در اخلاق جنگ توصیه‌هایی برای استفاده از هوش مصنوعی مطرح شده است؛ از جمله آنکه این کاربرد باید منطبق بر احترام به کرامت انسانی و پرهیز از تخریب اماکن طبیعی و زیست‌بوم‌های انسانی باشد. در این راستا توجه به ظرفیت‌های خاص این فناوری ضروری است.
حجت‌الاسلام سعیدرضا عاملی‌افزود: وقتی از هوش مصنوعی در بستر جنگ استفاده شود، خطرات و پیچیدگی‌های عملیات نظامی به میزان چشمگیری افزایش می‌یابد. خطای الگوریتمی در چنین شرایطی می‌تواند فاجعه‌آمیز باشد؛ مشابه فاجعه‌ای که در «مدرسه شجره طیبه» رخ داد و به شهادت ۱۶۸کودک معصوم انجامید. وی ادامه داد: در گذشته فرماندهان نظامی هزینه انسانی جنگ را به‌طور محسوس درک می‌کردند. آنها در میدان جنگ حضور داشتند، کشتار را مشاهده می‌کردند، صحنه‌های تخریب را از نزدیک می‌دیدند و بوی باروت را استشمام می‌کردند. اما در جنگ هوشمند، فضا کاملاً دگرگون می‌شود. جنگ از راه دور اداره می‌شود و تلفات جانی برای عاملان آن که در بستر فناوری قرار دارند، محسوس و عینی نیست.
خطوط قرمز
استاد دانشگاه تهران تصریح کرد: هسته مرکزی حقوق بین‌الملل بشردوستانه بر این فرض استوار است که حتی در خشونت سازمان‌یافته جنگ نمی‌توان از خط‌قرمزهای انسانی عبور کرد. کنوانسیون‌های ژنو (۱۹۴۹) و پروتکل الحاقی (۱۹۷۷) این خط‌قرمزها را در قالب اصولی، چون تفکیک، تناسب و احتیاط صورت‌بندی کرده‌اند. با ورود هوش مصنوعی به زنجیره تصمیم‌گیری نظامی، این پرسش مطرح می‌شود که آیا ماشین فاقد درک انسانی، وجدان اخلاقی و مسئولیت‌پذیری حقوقی می‌تواند احترام به این اصول را تضمین کند؟ پاسخ از دیدگاه تحلیل‌گران منفی است.
عاملی با اشاره به عصر الگوریتم و خودکاری شدن جنگ (کشتار رایانه‌ای/هوش مصنوعی) افزود: در این دوره سامانه‌های مبتنی بر الگوریتم با استفاده از هزاران میلیارد پارامتر امکان تصمیم‌گیری خودکار را دارند. این سیستم‌ها فاقد ترحم، اخلاق و درک انسانی هستند و در دنیایی بدون استهلاک و بر مبنای منطق پارامتریک عمل می‌کنند. آغاز این دوره به ۲۴فوریه ۲۰۲۲ (تهاجم روسیه به اوکراین) نسبت داده می‌شود. در این جنگ روسیه از سامانه‌های تخصصی محاسباتی برای هدف‌گیری توپخانه با دخالت محدود انسانی و اوکراین از نرم‌افزارهای سیستم اطلاعات جغرافیایی برای پردازش داده‌های ماهواره‌ای و پیشنهاد مختصات شلیک استفاده کردند. همچنین پهپادهای انتحاری مجهز به الگوریتم‌های ردیابی خودکار، نشانه‌های اولیه از خودکارسازی زنجیره کشتار بودند. با این حال، در تمامی موارد یادشده، تصمیم نهایی برای شلیک همچنان با اپراتور انسانی بود که در محیطی دور از میدان نبرد اتخاذ می‌شد.
چالش‌های انسانی
وی درباره چالش‌های کاربرد هوش مصنوعی در مخاصمات مسلحانه گفت: هوش مصنوعی نظامی دچار شکاف معنایی است؛ به این معنا که الگوریتم، داده را صرفاً مجموعه‌ای از پیکسل‌ها، سیگنال‌ها یا مختصات جغرافیایی می‌بیند، اما معنای انسانی آن داده را درک نمی‌کند. برای نمونه، برخی مکان‌ها صرفاً به اعتبار نام‌گذاری به عنوان هدف شناسایی می‌شوند، در حالی که بار معنایی واقعی آن نام (مانند وجود غیرنظامیان یا اماکن مذهبی) مورد توجه قرار نمی‌گیرد.
عاملی افزود: در نظریه جنگ عادلانه و حقوق بین‌الملل بشردوستانه، اصل تناسب مبتنی بر ارزیابی کیفی و زمینه‌مند است. یک فرمانده انسانی باید عواملی، چون میزان اطمینان از اطلاعات، ابهامات موجود، ارزش‌های انسانی در معرض خطر و حتی وجدان عمومی را در تصمیم خود دخیل کند. برای مثال، یک فرمانده ممکن است خطر مرگ پنج غیرنظامی را برای کشتن ۱۰سرباز دشمن بپذیرد، اما اگر آن پنج غیرنظامی کودک باشند، ممکن است همان خطر را حتی برای کشتن بیست سرباز نپذیرد. در سیستم‌های خودکار مبتنی بر هوش مصنوعی، چنین قضاوت کیفی و زمینه‌مندی حذف می‌شود. وی بیان کرد: در جمع‌بندی مباحث کارشناسی یکی از پیشنهادهای مشخص برای مهار رفتار ضداخلاقی هوش مصنوعی در جنگ، موضوع قفل اخلاقی است. بر این اساس، اگر سیستم‌های هوش مصنوعی نتوانند با اطمینان ۹۹.۹درصد غیرنظامی بودن یک هدف را اثبات کنند، حمله به‌طور خودکار ممنوع شده و پرونده برای بررسی انسانی ارجاع می‌شود.

شما چه نظری دارید؟

شما در حال پاسخ به نظر «» هستید.
0 / 400
captcha

پربازدیدترین

پربحث‌ترین

آخرین مطالب

بازرگانی